Corso IA consapevole 2026
Uno guardo critico sull' IA generativa
Intervento di Michela Fontana

Considero ChatGPT - pur riconoscendo alcuni suoi utili impieghi in ambito aziendale o della ricerca- come l’ennesimo strumento dell’intelligenza artificiale destinato a impoverire la nostra intelligenza, a spegnere la nostra creatività e capacità di pensiero autonomo. E soprattutto destinata a soffocare lo spirito critico, la capacità squisitamente umana alla base di ogni presa di coscienza responsabile.
Chat GPT nelle sue diverse versioni, così come tutti gli altri LLM ( Large language models, modelli linguistici di grandi dimensioni, chatbot come Gemini, Claude…..) non ha alcuna forma di intelligenza, non capisce quello che scrive o dice, non sa distinguere il vero dal falso, ma riesce a simulare in modo accurato il nostro linguaggio, grazie ad algoritmi statistici e all’ “addestramento”, basato su un enorme quantità di dati. Dati ( parole frasi conversazioni..) che noi utenti abbiamo prodotto negli anni, scrivendo sui social, facendo ricerche in rete, ma anche i dati che sono stati ricavati da tutto quello che è stato pubblicato, ( libri, articoli..). E tutto ciò senza informare gli utenti, o pagare diritti a scrittori, giornalisti, editori. Del resto gli stessi dati ricavati dalla rete, (catturati da ogni dispositivo che maneggiamo collegato a internet) consentono da più di venti anni alle aziende di di catalogare ogni individuo, in base a gusti, tendenze, abitudini, preferenze politiche e sono raccolti e usati senza la nostra consapevolezza o autorizzazione, per inviarci pubblicità mirate. Come bene ha illustrato il fondamentale volume“ Capitalismo della sorveglianza “ scritto dalla docente di Harvard Shoshana Zuboff ( 2019).
Tutti usiamo da anni i prodotti della digitalizzazione, che rendono in molti casi più veloce il lavoro e la ricerca di informazioni. Io stessa uso i motori di ricerca, ma cerco di farlo in modo vigile confrontando le fonti online, e sempre mi documento su libri di autori qualificati o su articoli scientifici o di giornali e riviste che verificano a loro volte le notizie, ovvero dichiarano le fonti e sono responsabili di ciò che pubblicano. Chi ha avuto la fortuna di apprendere a scuola o in università un metodo di studio basato sui libri e sul rispetto delle fonti e sulla precisione delle informazioni, non si capisce perché dovrebbe delegare scelte e decisioni ad una macchina. Che molto spesso sbaglia, e che produce i suoi risultati aggiustando e combinando testi già esistenti. Perché rinunciare al nostro cervello ? Perchè farlo atrofizzare ? Perché rinunciare allo spirito critico e al nostro pensiero originale?. Perché siamo così disposti alla passività ?.
Molti hanno abbracciato a suo tempo con entusiasmo la rete, i motori di ricerca, i social , gratuiti e divertenti, pensando che comunicare con tutti fosse un segnale di libertà, di arricchimento. C’è stato tanto entusiasmo e troppa ingenuità. Ma perché erano gratuiti i social? Pochi se lo sono chiesti Ora si sa, grazie a numerosi studi , che i social, non solo servono a estrarre dati dagli utenti ignari, ma usano algoritmi realizzati di proposito per influenzarci, e renderci dipendenti dal loro uso. Le grandi aziende tecnologiche come Meta-Facebook hanno introdotto i social gratuiti perché ogni nostro like, commento, interazione, ogni minuto che trascorriamo in rete è per loro un guadagno. Solo in questo modo si spiegano i loro ricavi stratosferici, addirittura maggiori del prodotto interno lordo di alcuni stati.
Non solo, ma è ormai dimostrato che l’uso esteso dei social sta danneggiando in modo significativo lo sviluppo psichico dei giovani. Non solo sono stati progettati per creare dipendenza , ma favoriscono anche dinamiche e interazioni che provocano ansia, aggressività, insonnia. Passare ore sui social distrugge la capacità di concentrazione, abitua a scambi veloci ed effimeri, depotenzia le funzioni cerebrali. Tanto che si sta legiferando nel mondo per limitarne o vietarne l’uso al di sotto di una certa soglia di età E’ anche stato dimostrato che i social hanno il potere di influenzare le persone, e sono stati usati in questo senso, non solo per orientare all’acquisto, ma per indirizzare le scelte politiche . I danni che possono produrre i social, dobbiamo saperlo, saranno straordinariamente amplificati dall’introduzione sempre più massiccia e capillare delle intelligenze artificiali, inclusi i Large language models come ChatGPT. Con conseguenze potenzialmente devastanti se non si introducono regolamentazioni opportune a protezione degli utenti.
Eppure, come a suo tempo i social, anche gli strumenti più recenti di IA non sono stati sottoposti a sufficienti controlli sugli effetti del loro uso generalizzato e prolungato, prima di venire messi sul mercato.
A mettere in guardia sui possibili effetti negativi dei nuovi strumenti tecnologici sono molti tra gli stessi scienziati che hanno contribuito a svilupparli. Ad esempio Mustafa Suleiman, cofondatore di Deep Mind e Inflection AI e ora Ceo di Microsoft AI, nel libro L’onda che verrà ( 2023). Suleiman sostiene che il progresso tecnologico non si può e non si deve fermare. Ma - avverte- dati i pericoli a cui l’umanità va incontro adottando la tecnologia più dirompente della storia , che affiderà alle macchine compiti fino a ieri squisitamente umani, è urgente occuparsi del suo “contenimento” diffondendo consapevolezza e adottando regole precise per il suo uso.
Non soltanto i LLM possono compiere errori,( io preferisco chiamarli così e non allucinazioni , termine quasi consolatorio), incluso il nuovo Chat GPT Health, specializzato a su temi medici, come si può leggere in recenti studi. E’ stato verificato che i chatbot possono contenere pregiudizi propri della cultura all’interno della quale sono stati addestrati. Ad esempio pregiudizi di genere e nei confronti delle minoranze.
Inoltre, dal momento che sono addestrati anche per simulare empatia, possono influenzare psicologicamente chi li sua. Soprattutto i giovani. Negli Stati Uniti si sono verificati suicidi di ragazzi dopo interazioni con ChatGPT-4, e alcuni genitori hanno intentato cause legali. OpenAI, che produce ChatGPT ha risposto di non essere responsabile dell’uso che gli utenti fanno dei suoi strumenti. Eppure la dipendenza patologica che alcuni giovani dimostrano verso i chatbot non è casuale: è progettata. Anche le aziende produttrici di sigarette sapevano che il fumo creava dipendenza, ma volutamente lo ignoravano. E sono state , pur in ritardo, ritenute responsabili dei danni provocati.
Ho appreso che, per migliorare le risposte di ChatGPT , ci viene suggerito di “ educarlo”, ad esempio riproponendo le domande in modo sempre più preciso, oppure chiedendo-gli ( chiedendo-le? ) di essere più onesto o meno adulatore.Non capisco perché dovremmo farlo. Meglio educare un giovane, meglio confrontarsi con una persona in carne ed ossa. Meglio impiegare quella fatica per spiegare ai giovani come sia importante mantenere consapevolezza e sviluppare lo spirito critico, invece di affidarsi ciecamente ai modelli di IA pensando che siano infallibili, o che possiamo renderli tali. Non lo sono. Non lo saranno mai. E non sanno cosa sia l’empatia, si limitano a simularla. E poi perché dialogare con una macchina invece di fare una ricerca in prima persona? Perché siamo tutti così pronti entusiasticamente a seguire il pifferaio di Hamelin verso il precipizio?
Concludo con un’ esemplificazione piuttosto divertente a conferma di quanto ho sostenuto, offertami inaspettatamente proprio dal chatbot.
Quanto ho appena esposto qui sopra è una parziale sintesi del mio commento, pronunciato a braccio, durante la prima giornata dell’incontro Ai consapevole, dedicata, appunto, a ChatGPT. Ebbene, il riassunto del mio breve intervento mi è stato gentilmente spedito per mail dalla organizzatrice perché lo sistemassi per la pubblicazione. Il testo inviatomi mi suonava un pò falso, sapeva di rielaborazione non pensata, non accurata, anche se i temi da me trattati c’erano tutti.
Infatti non era una semplice sbobinatura, ma nemmeno un riassunto preparato da un umano. Era stato elaborato, ironia della sorte, come mi hanno confermato, proprio da ChatGPT! Forse una vendetta dell’IA nei miei confronti? Non proprio riuscita, dal momento che l’elaborato conteneva un madornale errore. Io avevo citato il libro di Mustafa Sueiman “L’onda che verrà”. ChatGPT scrive invece : “ Il mondo che verrà” e aggiunge “consigliato anche da Umberto Eco” (sic!!) Peccato che il titolo sa sbagliato e peccato che Umberto Eco sia morto 7 anni prima della pubblicazione di “L’onda che verrà”. ! Inutile dire che ho interamente riscritto la traccia inviatami da ChatGPT.
Michela Fontana, matematica, giornalista e saggista, è autrice di numerose opere, tra cui: Percorsi calcolati (1996), Matteo Ricci (2005), Cina. La mia vita a Pechino (2008), Nonostante il velo (2015).
Scrive di Intelligenza artificiale sul blog Coolmag:
https://www.coolmag.it/category/letture/
Milano 8 febbraio 2026
|